تؤكد صحيفة الجارديان في افتتاحية أن التحول في طبيعة الحروب بدأ بالفعل مع دخول الذكاء الاصطناعي إلى ساحات القتال. ويحذر الأمين العام للأمم المتحدة أنطونيو جوتيريش من أن العالم لن يتحرك في المستقبل بالبطء الذي يشهده اليوم، في إشارة إلى السرعة الهائلة لتطور التكنولوجيا. ويشير هذا التسارع إلى تضاؤل الفاصل بين النقاشات النظرية حول الذكاء الاصطناعي وبين تطبيقاته الفعلية في النزاعات العسكرية.


توضح الجارديان في افتتاحيتها أن الجدل السياسي في الولايات المتحدة حول قدرات الذكاء الاصطناعي العسكرية تزامن مع استخدام غير مسبوق لهذه التقنيات في الأزمة المرتبطة بإيران. وقد أثار ذلك نقاشًا واسعًا حول حدود استخدام التكنولوجيا المتقدمة في العمليات العسكرية، ودور الشركات التقنية في تحديد هذه الحدود.


صراع بين الشركات التقنية والجيش الأمريكي


رفضت شركة أنثروبيك إزالة الضوابط التي تمنع استخدام تقنياتها في المراقبة الجماعية داخل الولايات المتحدة أو في الأسلحة الذاتية القاتلة. وأكدت وزارة الدفاع الأمريكية أنها لا تسعى إلى تلك الاستخدامات، لكنها شددت على أن الشركات لا ينبغي أن تحدد سياسات الأمن القومي. وأدى هذا الخلاف إلى استبعاد الشركة من سلسلة التوريد الدفاعية الأمريكية، الأمر الذي أثار جدلاً كبيرًا داخل قطاع التكنولوجيا.


دخلت شركة أوبن إيه آي لاحقًا لتقديم تقنياتها للحكومة الأمريكية، مع تأكيد التزامها بالخطوط الحمراء التي أعلنتها الشركة المنافسة. غير أن رئيسها التنفيذي سام ألتمان اعترف داخليًا بأن الشركة لا تملك سيطرة كاملة على كيفية استخدام الجيش لتقنياتها، كما أقر بأن طريقة إدارة الاتفاق جعلت الشركة تبدو انتهازية وغير منظمة في نظر بعض الموظفين والمستخدمين.


الذكاء الاصطناعي يغيّر طبيعة الحروب


تحذر الناشطة نيكول فان رويين، المديرة التنفيذية لمنظمة أوقفوا الروبوتات القاتلة، من أن المشكلة لا تتعلق فقط باستخدام الأسلحة الذاتية، بل بالأنظمة التمهيدية التي تغير بالفعل طريقة خوض الحروب. فقد بدأت هذه الأنظمة بتقليص دور الإنسان في اتخاذ القرار العسكري، حتى أصبح تدخل البشر أحيانًا مجرد إجراء شكلي.


تشير التقارير إلى أن نظام الذكاء الاصطناعي «كلود» التابع لشركة أنثروبيك ساهم في تسهيل العمليات العسكرية المتصاعدة التي أدت إلى مقتل أكثر من ألف مدني في إيران. وتعتمد الجيوش الحديثة على الخوارزميات لتحديد الأهداف وترتيب أولوياتها واختيار نوع السلاح المناسب، بل وحتى تقييم المبررات القانونية لتنفيذ الضربات العسكرية. ويصف خبراء هذا الواقع بأنه عصر القصف الأسرع من التفكير.


لا يعني استخدام الذكاء الاصطناعي أن الأخطاء العسكرية أو سقوط الضحايا المدنيين ظهر حديثًا، لكن التقنية الجديدة قد تزيد حجم العمليات وتسارعها. وقد أثار الجدل أيضًا تصريحات وزير الدفاع الأمريكي بيت هيغسيث الذي تفاخر بتخفيف قواعد الاشتباك. وفي الوقت نفسه واجهت وزارة الدفاع تساؤلات حول مقتل 165 تلميذة في ضربة جوية استهدفت مدرسة في إيران في 28 فبراير.


تقليص دور الإنسان في قرار القتل


يوضح أحد مصادر الاستخبارات الإسرائيلية خلال الحرب في غزة أن أنظمة الذكاء الاصطناعي تولد قوائم ضخمة من الأهداف العسكرية المحتملة. ويقول المصدر إن آلاف الأهداف تنتظر المعالجة باستمرار، بينما يضطر الضباط إلى مراجعة كل هدف خلال ثوانٍ معدودة فقط. وفي كثير من الحالات يقتصر دور الإنسان على إعطاء الموافقة النهائية دون إضافة تحليل حقيقي.


يسهّل هذا الأسلوب عمليات القتل الجماعي بعدة طرق، إذ يقلل المسافة النفسية بين منفذي العمليات والضحايا، كما يضعف مستوى المساءلة السياسية والأخلاقية. فكلما ازدادت سرعة اتخاذ القرار تقلصت مساحة التفكير الأخلاقي والتقييم القانوني الحقيقي.


دعوات لتنظيم دولي عاجل


يشدد المقال على ضرورة فرض رقابة ديمقراطية وقواعد دولية واضحة بدل ترك القرارات الحساسة للشركات التكنولوجية أو المؤسسات العسكرية وحدها. ولهذا السبب اجتمعت عدة دول في جنيف لمناقشة تنظيم أنظمة الأسلحة الذاتية القاتلة ووضع إطار قانوني لها.


ويرى كثير من الحكومات أن العالم يحتاج إلى معاهدة دولية تنظم استخدام الذكاء الاصطناعي في الحرب. غير أن الدول الأكثر قوة عسكريًا وتكنولوجيًا ما زالت تتردد في فرض قيود صارمة على نفسها رغم مشاركتها في المفاوضات الدولية.


وفي ظل التسارع الكبير في تطوير هذه التقنيات قد يبدو التريث وكأنه يمنح الخصوم تفوقًا عسكريًا. لكن يحذر الخبراء والعاملون في قطاع التكنولوجيا من أن التوسع غير المنضبط في استخدام الذكاء الاصطناعي العسكري قد يحمل مخاطر أكبر بكثير على الأمن العالمي ومستقبل الحروب.

 

https://www.theguardian.com/technology/commentisfree/2026/mar/06/the-guardian-view-on-ai-in-war-the-iran-conflict-shows-that-the-paradigm-shift-has-already-begun